Световни новини без цензура!
Бележка под линия на съдия относно имиграционните агенти, използващи AI, поражда опасения за точността и поверителността
Снимка: apnews.com
AP News | 2025-11-26 | 08:08:12

Бележка под линия на съдия относно имиграционните агенти, използващи AI, поражда опасения за точността и поверителността

Поместена в записка под линия от две фрази в обстойно правосъдно мнение, федерален арбитър неотдавна прикани имиграционни сътрудници, употребяващи изкуствен интелект, да пишат отчети за потребление на мощ, като поражда опасения, че това може да докара до грешки и в допълнение да подкопае публичното доверие в това по какъв начин полицията се е справила с имиграцията репресии в региона на Чикаго и последвалите митинги.

Съединени американски щати Окръжният арбитър Сара Елис написа бележката под линия в мнение от 223 страници, издадено предходната седмица, отбелязвайки, че практиката на потребление на ChatGPT за писане на отчети за потребление на мощ подкопава доверието в сътрудниците и „ може да изясни неточността на тези отчети “. Тя разказа какво е видяла в минимум един видеоклип от телесна камера, пишейки, че сътрудник моли ChatGPT да сформира роман за отчет, откакто даде на програмата малко изречение с изложение и няколко изображения.

Съдията означи в действителност несъответствия сред формалния роман за тези реакции на правоприлагащите органи и това, което демонстрираха записите от телесна камера. Но специалистите споделят, че потреблението на AI за написване на отчет, който зависи от съответната позиция на офицера, без да се употребява действителният опит на офицера, е най-лошото допустимо потребление на технологията и поражда съществени опасения по отношение на точността и поверителността.

Необходима позиция на един чиновник

Правоприлагащите органи в цялата страна се борят с това по какъв начин да основат парапети, които разрешават на чиновниците да употребяват все по-достъпната AI технология, като в същото време поддържат акуратност, дискретност и професионализъм. Експерти споделиха, че образецът, разказан в мнението, не дава отговор на това предизвикателство.

" Това, което направи този човек, е най-лошото от всички светове. Като му дадем едно изречение и няколко фотоси - в случай че това е правилно, в случай че това се е случило тук - това опонира на всеки съвет, който имаме там. Това е призрачен сюжет ", сподели Иън Адамс, помощник професор по криминология в Университета на Южна Каролина, който работи в работна група за изкуствен интелект посредством Съвета за наказателно правораздаване, безпартиен мозъчен концерн.

Бъдете в крайник с новините и най-хубавото от AP, като следвате нашия канал в WhatsApp.

Продължете <изобр src= " https://dims.apnews.com/dims4/default/f50b139/2147483647/strip/true/crop/131x31+0+0/resize/131x31!/qu ality/90/?url=https%3A%2F%2Fassets.apnews.com%2F8c%2Fe0%2F2615e5984b5ebb8b89fd3ade6941%2Fwhatsapp-logo.png " alt= " WhatsApp " >

Министерството на вътрешната сигурност не отговори на настояванията за коментар и не беше ясно дали организацията има насоки или политики по отношение на потреблението на AI от сътрудници. Записите от камерата на тялото, представени в заповедта, към момента не са оповестени.

Адамс сподели, че малко отдели са въвели политики, само че тези, които постоянно не разрешават потреблението на предсказуем AI при писане на отчети, обосноваващи решения на правоприлагащите органи, изключително отчети за потребление на мощ. Съдилищата са открили стандарт, наименуван справедлива разумност, когато преценят дали потреблението на мощ е било целесъобразно, разчитайки значително на гледната точка на съответния чиновник в този съответен сюжет.

„ Имаме потребност от съответните артикулирани събития от това събитие и съответните мисли на този съответен офицер, с цел да ни уведомят дали това е било целесъобразно потребление на мощ “, сподели Адамс. „ Това е най-лошият сюжет, с изключение на категорично да му кажете да измисли обстоятелства, тъй като вие го молите да измисли обстоятелства в тази обстановка с високи залози. “

Лична информация и доказателства

Освен че провокира опасения по отношение на генериран от AI отчет, който неопределено характеризира какво се е случило, потреблението на AI също по този начин поражда евентуални опасения за поверителността.

Кейти Кинси, шеф на личния състав и консултант по техническа политика в Policing Project в Юридическия факултет на Нюйоркския университет, сподели, че в случай че сътрудникът в заповедта употребява обществена версия на ChatGPT, той евентуално не е схванал той загуби надзор върху изображенията сега, в който ги качи, позволявайки им да бъдат част от публичното притежание и евентуално употребявани от неприятни артисти.

Кинси сподели от софтуерна позиция, че множеството отдели построяват самолета, както се ръководи, що се отнася до AI. Тя сподели, че постоянно е модел в правоприлагането да се чака, до момента в който новите технологии към този момент се употребяват и в някои случаи се позволяват неточности, с цел да се приказва за въвеждане на насоки или политики.

„ Предпочитате да вършиме нещата по противоположния метод, където разбирате рисковете и създавате защитни средства към рисковете “, сподели Кинси. " Дори и да не учат най-хубавите практики, има някои по-ниско висящи плодове, които биха могли да оказват помощ. Можем да стартираме от прозрачността. "

Кинси сподели, че до момента в който федералните правоприлагащи органи обмислят по какъв начин би трябвало да се употребява или не технологията, те биха могли да одобряват политика като тези, въведени неотдавна в Юта или Калифорния, където полицейските отчети или известия, написани с AI, би трябвало да бъдат етикетирани.

Внимателно потребление на нови принадлежности

Снимките, които офицерът употребява, с цел да генерира роман, също провокираха опасения за точността на някои специалисти.

Добре известни софтуерни компании като Axon започнаха да оферират AI съставни елементи със своите телесни камери, с цел да оказват помощ при писането на отчети за произшествия. Тези AI стратегии, продавани на полицията, работят върху затворена система и значително се лимитират до потреблението на аудио от телесни камери за основаване на разкази, защото фирмите споделиха, че стратегиите, които се пробват да употребяват образни детайли, не са задоволително ефикасни за потребление.

" Има доста разнообразни способи да се опише цвят, изражение на лицето или всеки образен съставен елемент. Можете да попитате който и да е AI специалист и той ще ви каже, че подканите връщат доста разнообразни резултати сред другите AI приложения, а това се усложнява с образни съставен елемент “, сподели Андрю Гътри Фъргюсън, професор по право в Юридическия факултет на университета Джордж Вашингтон.

„ Има и въпроси, свързани с професионализма. Добре ли сме полицейските чиновници да употребяват планирани разбори? “ добави той. " Става въпрос за това, което моделът счита, че е трябвало да се случи, само че може да не е това, което в действителност се е случило. Не желаете това да се окаже в съда, с цел да оправдаете дейностите си. "

Източник: apnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!